iT邦幫忙

2024 iThome 鐵人賽

DAY 9
0
AI/ ML & Data

Web仔從數學角度學習 AI/ ML & Data系列 第 9

Day 9 - Web仔從數學角度學習 深層前饋式神經網路DFNN

  • 分享至 

  • xImage
  •  

註:本文同步更新在Notion!(數學公式會比較好閱讀)

深層前饋式神經網路(Deep Feedforward Neural Networks, DFNN)是前饋式神經網路的一種擴展。與多層感知機(MLP)相似,DFNN 由多層神經元組成,但特點在於隱藏層的數量較多,通常有多層隱藏層,因此被稱為「深層」網路。這樣的深度讓它能夠處理更加複雜的模式和數據結構。

DFNN 的目的是通過多層隱藏層的神經元來提取更高層次的數據特徵。這些特徵的提取過程從底層開始,逐層提取出更加抽象的數據信息,從而能夠學習和表示更複雜的模式。


1. 前饋過程

https://ithelp.ithome.com.tw/upload/images/20240921/20168898HVO6jR875i.png

2. 激活函數

在每層的神經元中,激活函數 $\sigma$ 是一個關鍵組件,它能夠引入非線性,使網路能夠學習複雜的非線性映射。常見的激活函數有:

  • ReLU(Rectified Linear Unit):
    https://ithelp.ithome.com.tw/upload/images/20240921/20168898Hb7G4XBVS2.png
  • Sigmoid:
    https://ithelp.ithome.com.tw/upload/images/20240921/201688985rqJc1hmRf.png
  • Tanh:
    https://ithelp.ithome.com.tw/upload/images/20240921/20168898xZo1BAM5sW.png

深度與特徵提取

多層隱藏層允許 DFNN 提取更加抽象的特徵。每一層的神經元在進行線性變換和非線性激活後,可以捕捉到數據中不同層次的模式。隨著層數的增加,網路能夠更好地描述數據中的複雜關係。

4. 倒傳遞演算法(Backpropagation)

DFNN 的訓練過程主要依賴於倒傳遞演算法(Backpropagation),該演算法通過計算每一層的梯度來更新權重和偏置。其目標是最小化損失函數,通常使用梯度下降法來調整網路的參數。

https://ithelp.ithome.com.tw/upload/images/20240921/20168898M2sPs8cDNw.png

5. 梯度消失問題與深度網路

當網路層數增加時,傳統的激活函數(如 Sigmoid 和 Tanh)容易出現梯度消失問題,這使得網路在訓練過程中無法有效更新權重。為了解決這個問題,深層網路中通常使用 ReLU 激活函數,這種函數在輸入大於零的區域內能夠保持非零梯度,從而能夠緩解梯度消失問題。


深層前饋神經網路的優勢

  1. 複雜模式識別:由於其深度,DFNN 能夠提取和學習數據中的高度抽象特徵,使其在圖像識別、語音處理和自然語言處理等任務中表現出色。
  2. 非線性映射:激活函數的使用賦予 DFNN 強大的非線性映射能力,能夠處理複雜的數據關係。
  3. 可擴展性:DFNN 能夠隨著隱藏層的增加而提升模型的表現,這使得它在大規模數據和高維度特徵中能夠取得良好的效果。

上一篇
Day 8 - Web仔從數學角度學習 前饋式神經網路 多層感知機MLP
下一篇
Day 10 - Web仔從數學角度學習 前饋式神經網路的梯度下降方式
系列文
Web仔從數學角度學習 AI/ ML & Data30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言